查看原文
其他

智能治理||陈潭:人工智能时代政府治理的挑战与回应

南方治理 2024-06-27


人工智能时代

政府治理的挑战与回应

陈潭  廖令剑

《行政论坛》2021年第6期



随着新科技革命的迅猛发展,人工智能的崛起深刻地影响着人类的思维方式、生产方式和生活方式。在公共部门管理领域,人工智能不仅改善了政府治理要素和政府治理结构,而且降低了政府治理成本和提升了政府治理效能,对于推进政府治理体系和治理能力现代化具有重要的革命性意义,但是人工智能也给政府治理带来一些问题,对已“格式化”的治理技术、行政伦理、科层法治和社会安全构成严峻的挑战,因此我们需要从“科技挑战”和“人文回应”两个断面与四个角度来正确理解和认真对待人工智能时代的政府治理。人工智能时代的政府治理,在治理技术方面,面临工具魅惑和算法魅惑,需要进行理性回应;在行政伦理方面,面临人性冲突和道德冲突,需要进行价值回应;在科层法治方面,面临关系失范和行为失范,需要进行规制回应;在社会安全方面,面临生产异化和生活异化,需要进行责任回应。总之,完美释放“人工智能+政府治理”的效能,需要在科技应用与人文关怀之间寻求平衡并作出有效回应。

思路与进路

科技是器物的扛鼎之作,人文乃精神的集大成者,科技与人文分属人类历史进程中至关重要的核心驱动力。作为数字革命的高阶产物,人工智能引领第四次工业革命,重塑经济社会发展的形态、业态和生态。在某种程度上来说,人工智能可以看作网络空间的信息生命,从弱人工智能、强人工智能再到超人工智能,人工智能的战略价值将由设想逐步变成现实,然而,技术是一柄双刃剑,人工智能也毫不例外。乐观主义者认为人工智能时代的未来图景是超验的,而悲观主义者则预言人工智能带给社会的将是秩序的灾变。造成两种观点分野的原因,究其根本是科技与人文之间的脱钩。倘若科技缺乏人文的浸润、约束和控制,势必给人类文明带来麻烦、困顿和悲剧。我们知道,“人文精神”(humanism)通常被译作人文主义、人本主义或人道主义,广义的内涵是指一种包含人性、理性和超越性的文化传统,其核心思想是尊重人的价值和保护人的安全的社会禀赋。1959年,英国学者C.P.斯诺在剑桥大学《两种文化与科技革命》的演讲中指出,科学文化与人文文化长期处于彼此割裂、相互制衡的状态,强调这种现象已遍及英国且广泛存在于整个西方世界。当科学技术迅猛发展并带来社会供给面的深层次变革,人类自身固有的某些劣根性就容易被放大,科技一旦失控便不自觉地走向人文的对立面。如果科技文明抵触或阻止人文精神,人类文明也就无法真正回应社会需求的终极关怀。

随着大数据、云计算、认知科学和机器学习的深度发展,人工智能的社会适应性场域相应地不断扩大,成为工业产品、农业产品、数字产品的重要智能驱动,同时又嵌入政务管理、公共服务和社会安全等公共性产品之中,成为治理技术、科层伦理、政府法治和社会安全不可忽视的重要变量。从“人工智能+政府治理”来看,政府已逐渐运用人工智能开展自身管理活动和公共事务治理。实际上,人工智能与政府治理处于互构状态,人工智能的效能呈现和功能叠加增强了人们对“数字型政府”“平台型政府”“协作型政府”“简约型政府”“智慧型政府”等治理完美度的想象力,“数据安全”“权责模糊”“代理困境”“机器换人”等相关论题则给政府治理带来相当的搅乱力。不同于企业管理,政府治理领域任何一项决策都有可能产生“蝴蝶效应”,严重者甚至会对社会造成飓风般的政治影响。美国前国务卿基辛格指出,人工智能与社会文明之间存在鸿沟,人们在哲学视野、伦理传承、法律规范、制度体系和理智倾向等各方面都还未做足功课,人工智能等新科技变革给既有世界秩序带来巨型冲击波,使人类文明面临新式的“生存或者毁灭”的现实困境。

 面对人工智能时代政府治理的多维嬗变,我们需要从科技挑战与人文回应两个断面和治理技术、行政伦理、科层法治、社会安全四个角度进行回应。其中,治理技术和行政伦理是“人工智能+政府治理”的内隐范畴,科层法治和社会安全是“人工智能+政府治理”的延伸范畴。从实践层面来看,“人工智能+政府治理”的形塑路径包含多个维度,从科技引发社会变革的宏观窗口开始,而后扩散到治理技术和行政伦理的政府内部变革,同时蔓延到科层法治和社会安全的政府外部变革。因此,我们从“科技变革—时代变革—治理变革”的视角对“人工智能+政府治理”进行解构与建构是有实践意义和应用价值的。从理论层面来看,戴维·H·罗森布鲁姆和罗伯特·S·克拉夫丘克将公共行政学划分为管理的、政治的和法律的三种路径,提出了一种深刻而全面理解公共行政的阐释模型。根据他们的分析路径,从治理技术(技术维度)、行政伦理(政治维度)、科层法治(法律维度)、社会安全(管理维度)四个方面对“人工智能+政府治理”的挑战和回应进行分析,具有理论意义和学理价值。


人工智能时代政府治理的

技术魅惑与理性回应

“袪魅”一词来自马克斯·韦伯关于宗教与科学的对立描述,提出工业社会的时代特征是“理性祛除巫魅”,而大卫·格里芬基于技术对人文的回应提出“返魅”理念,二者分别就宗教和技术的“魅惑性”作出了科学与人文的二维回应。随着人工智能对人类的认知边界和实践空间的极大改变,技术的魅惑性也相伴而生。这种技术魅惑趁势向政府治理席卷而来,主要表现在两个方面:一是人工智能作为政府治理的外生活动器物的工具魅惑,即政府治理对人工智能工具属性的过度“崇拜”;二是人工智能嵌入政府治理规则所内生的算法魅惑,表现为政府治理对先进算法技术的极度“迷信”。实质上,“人工智能+政府治理”的技术魅惑使人们容易混淆“智能”与“万能”的词汇区分,从而无可避免地陷入“技治主义”的泥淖之中。因此,我们需要消解人工智能之于政府治理的技术崇拜和技术风险,实现“人工智能+政府治理”的人机和谐,从而为政府提供理性的治理范式。

1

//  工具魅惑

作为政府治理的一种工具,人工智能之于政府治理的变革面临重塑行政体系与治理工具的关系问题。不可否认,作为一种高效处理政府事务的工具,人工智能成为改变政府治理范式的变革性因素,并为政府治理提供了新的治理范式:首先,数据分析、算法推演和智能预测等使政府从相对理性进一步靠近绝对理性,能够增强决策的科学性和正确性;其次,万物互联、自动化使政府从有限职能逼近无限职能,能够提供更加多样化的公共产品;最后,精准服务使政府从臃肿治理转向简约治理,能够减少行政雇员成本、简化行政手续。与此同时,“人工智能+政府治理”的天平也容易滑向仅仅作为治理工具的一极。我们知道,技术理性是一种概念化的意识形态,技术的应用形成一种对自然和人的统治,并且是具有方法论的、科学的和策划的强制性手段。倘若人工智能的技术理性让政府治理偏颇工具化,而忽视传统的公共行政价值,那么就又回到了公共管理一贯以来的经典论题原点,即西蒙和沃尔多关于民主与效率的行政价值之争。

作为法兰克福学派的代表人物,赫伯特·马尔库塞对技术理性、工具理性和技治主义进行了批判。他认为,发达工业社会造就了窒息自由的抑制性势能……控制的技术力量越发达、越全面,受管理的个人打破这种奴隶状态的手段和方法越不可想象。由此可见,人工智能的技术理性与政府治理的价值实现存在一定程度的对立性,在提升政府治理能力的显性魅惑下潜藏着巨大的风险。人工智能的强势存在,一方面容易充当公共治理的“裁判官”角色。政府治理严重依赖人工智能进行信息的筛选、计算、分析、预测和传导,导致政府决策的权力让渡于人工智能,反而容易让决策者成为器物的工具。其实,再具“人性”的人工智能也不能替换人的角色,更遑论管理者的角色。如果人的价值被异化为物的价值,政府就会不自觉地丧失作为治理主体的能动者地位。另一方面,容易削弱政府治理和公共服务参与者的思维和能力。正如尼尔·波兹曼在1985年出版的《娱乐至死》一书中所警告的,“我们将毁于我们所热爱的东西”。根据凯斯·R.桑塔纳在《信息乌托邦:众人如何生产知识》中提出的“信息茧房”概念,对人工智能的依赖及其“技术上瘾”会使人们自主思考的能力弱化。

2

//  算法魅惑

从人工智能嵌入政府运作规则的内部性入手,人工智能技术也在改变原有的治理生态。人工智能饱受诟病之处在于其操作过程始终隐藏在算法逻辑背后,导致人们被动地接受最终运算结果。“人工智能+政府治理”的流程化作业方式、线性思维风格、输入—输出的指令、有限时间决策与复杂的、高度不确定的社会系统之间存在根本性矛盾,人工智能的程序本性在助长单一的、粗暴的“最优解”之风。程序性的支配方式有着很大的局限性,结果导向的命令式行动逻辑缺乏人性的温度、思维的深度和情感的信度。现阶段指望人工智能的治理水平能比较周全地考虑到微妙而复杂的自然生态、人文生态和社会生态等问题既不现实也难以实现。可见,“人工智能+政府治理”的算法魅惑在于相对超前的技术进步掩盖了事实上仍未成熟的治理机制,机器算法容易放大强势群体的意志表达,执行某种无法验证合理与否的决策定则,毫无疑问地导致算法利维坦、算法独裁和算法霸权的产生,从而带来社会意识的分裂和集体理性的降格。

实际上,人工智能深度学习的自主行为与人类的决策行动存在根本不同,“人工智能+政府治理”的算法程序和治理逻辑之间仍需磨合。“目前数据驱动的人工智能所使用的方法本质上属于分类、归纳、试错等经验与反馈方法,在方法论上并不完备”。毫不客气地说,不成熟的“人工智能+政府治理”甚至会引发现有治理秩序链的崩解。尼古拉·莱特在《人工智能如何重塑全球秩序:数字威权与自由民主之争》一文中指出,数字威权主义对自由民主进行侵蚀,人工智能极大地增强了威权国家的暴政可能,刺激政府监控本国公民以及撩拨社会体系之间的竞争趋向白热化。算法借助治理进行“赋值—赋能—赋权”的能量释放,容易增强对现实社会产生高风险的强干预能力。从一定程度上来说,“人工智能+政府治理”的挑战是我们仍未找到物质与精神、技术与意识的最佳结合点。毫无疑问,“人工智能+政府治理”面临的首先是一场文化革命和思维革命,然后才是一场真正意义上的技术革命和治理革命。唯有如此,最终才能打破对技术、智能和算法的魅惑和迷信。

3

//  理性回应

面对“人工智能+政府治理”的工具魅惑和算法魅惑,人类必须重新思考和讨论科技进步、人文精神与政府治理之间的关系,使人工智能在政府治理领域免于陷入技术超验性与治理合理性两相割裂的误区。应当看到,人工智能与政府治理深度融合最值得称道的是人力之上的“超能算力”,这种能力能够克服政府以及政府治理的有限理性,然而,人工智能算法及其背后的技术逻辑应该秉持集体理性的规则、社会文明的法则和符合美好生活需要的政府治理真谛,有必要把技术理性与价值理性统摄于政府治理的有限理性范畴之内。马尔库塞和哈贝马斯分别指出了技术合理性演变为统治合理性、工具合理性的异化过程。在批判继承马尔库塞和哈贝马斯的观点的基础上,芬伯格认为,在技术设计和应用的过程中必须体现社会的价值和规范。这种思路带给我们的启示是:理当跳出“人工智能+政府治理”的技术决定谬误圈套,用人文理性重塑人工智能的技术理性。当人工智能服膺于政府、公民和技术“三位一体”约定俗成的集体理性时,“人工智能+政府治理”用技术理性和价值理性所构筑的“同心圆”方可达成。

因此,面对人工智能时代政府治理的工具魅惑和算法魅惑,可以从以下三个方面进行理性回应:一是运用价值理性牵引技术理性。在某种立场上,纯粹的技术理性与价值理性都是相对的、单一的和割裂的。沉迷于人工智能的技术魅惑将会异化人的价值与治理的价值,忽视人和治理的价值会使技术成为毁灭性的独裁工具。进言之,应以价值的文化内应力和人文软约束形塑技术建构政府治理的合理路径,探寻“人工智能+政府治理”技术理性与价值理性的共生格局。二是使用制度理性限制技术理性。当人工智能技术演化为一种非正式权力,就需要通过制度理性或交往理性等正式权力矫正技术导致的越轨行为,在“人工智能+政府治理”的制度设计中运用公意契约、公共秩序、公平政策和公开流程回归民主理性和集体的“善”,即以制度合理性规范人工智能运用合理性的可靠区间,使人工智能的“算力”达到最佳效果。三是通过技术理性实现治理理性。提出治理理性是为了更好地区分“技术”与“治理”何者是第一性的问题。显然,“人工智能+政府治理”是为了给公民提供更优质的公共安全、公共管理和公共服务,人工智能仅仅是政府治理的一种实现手段。


人工智能时代政府治理的

伦理冲突与价值回应

艾·阿西莫夫在1950年出版的《我,机器人》一书的引言中提出的“机器人三大定律”,开启了人工智能伦理(AIethics)研究的先声。“机器人三大定律”是约束自主机器以使其服从保护人类为目的的强制性人性伦理准则,从宏观层面规范了人工智能的运用边界。不少学者也从微观层面的道德伦理角度指摘人工智能算法侵犯了用户隐私。其实,人工智能对政府治理原有的行政伦理也造成巨大的冲击:一方面是人工智能嵌入行政体系的人性冲突。算法假定与人性选择有着根本区别,算法假定代表的是机器人性,而人性选择背后往往与社会规范、人际关系相挂钩,人工智能在辅助政府治理之时可能疏忽甚至对抗人性表达。另一方面,是人工智能作用于行政体系的道德冲突。人工智能利用数据分析辅助政府制定政策和执行决策之时,可能会造成对弱者保护与救济的剥离。由此,人工智能时代政府治理的伦理挑战从根本上映照出政府治理的人性价值和人工智能的机器本质之间的脱嵌,需要作出具有人文价值意蕴的时代回应。

1

//  人性冲突

布莱恩·克里斯汀在《最有人性的“人”:人工智能带给我们的启示》一书中介绍了人工智能的发展历程,从多个方面阐述人工智能的本质,引发“机器是否能够替代人”的热议。我们看到,人工智能朝着类人性、人格化、人性化、人化的方向进化,其中,“类人性”和“人性化”成为人工智能辅助政府治理的前提假设。人工智能嵌入政府治理遵循的是算法假定和机器人性,这种关系的完整映射是用机器人性的治理替换社会人性的治理。所谓社会人性的治理,是指行政官员围绕价值选择和价值判断进行的行政自由裁量,通过制度性的例外权力进行弹性化的管理。而以机器人性作为治理伦理基础,所反映的是智能合约化的刚性执行力。二者之间的巨大落差迫使“人工智能+政府治理”产生行政决策的意志分裂,算法假定下的行政伦理对人性的识别始终是有限度的,与行政情景的无限性变化和治理的柔性化需求构成悖论。政府治理终究既是一门技术,也是一门艺术。

“超人工智能的强兼容性和高类人性可能会导致‘人的自主性’与‘机器自主性’之间的伦理困境”。一言以蔽之,“人工智能+政府治理”的“机器人性”和“社会人性”有着一定的矛盾,这种矛盾甚至冲突代表的是人性价值和算法预设的相互排斥。人性崇尚自由,算法强调控制。如果“机器人性”占据上风,显然将压缩政府治理的自由填充空间,“人工智能+政府治理”因之成为一种单调的、乏味的甚至冰冷的行政范式。由于弱者关怀、社会保障与行政救济都是政府治理的重要内容,因而基于人工智能的政府治理必须考虑机器人性与社会人性是否会发生冲突的问题:一是人性降格问题。在经济人假设和社会人假设的复杂人性选择中,“人工智能+政府治理”的算法人性易使“社会人性”集体降格。二是人性争位问题。中国是一个传统的礼俗社会,刚性的法治和柔性的德治、城市的团体格局和乡土的差序格局并存,“人工智能+政府治理”难以处理多维度的人性冲突。三是人性占位问题。行政决策的底层逻辑不是基于权变的选择,而是基于选择的权变,算法挤占人性的弹力空间,“人工智能+政府治理”无法维护公序良俗。

2

//  道德冲突

在某种程度上,启蒙运动中的自由理论、平等理论等都是基于人性伦理的价值再造。社会主张的正义、公平等古老的政治宣言,其行为逻辑背后都可以归结为道德伦理的需要与表达。以正义理论为例,罗尔斯《正义论》的理论旨趣是构建良序社会,他透彻而深刻地分析了人性并将其作为分配正义的基点,但是在“人工智能+政府治理”的时代背景下,政府基于算法逻辑进行的治理行为是否能够代表典范的正义传统,答案可能是令人沮丧的。1976年,菲利普·福特提出的电车难题揭露了对人的价值采取策略选择之时所呈现的道德两难情境。“人工智能+政府治理”如果按照某种算法逻辑作出行政决策,弱者的价值并不占优势,其行为后果甚至将导致社会新的道德问题——决策歧视。美国司法领域的COMPAS人工智能系统在对罪犯进行再犯认定之时,其结果将黑人的再犯罪率评定为白人的两倍。可见,“人工智能+政府治理”的算法逻辑并非总是正义的,其中也潜藏着对政府治理行为的歧视性引导风险。此外,人工智能以赋值比较或智能合约的执行来达成政府治理的宗旨并不可靠,当治理的“算法解”替代行政官员的“决策解”,就会难以虑及意识形态领域的价值判断和价值选择。政府的本质属性是对公民的保护与救济,但“人工智能+政府治理”有可能造成对弱势群体的功能性脱嵌——弱者剥离,即将弱者的利益排除在外,进行一种筛选式的忽视和侵犯式的剥离。所谓“人工智能+政府治理”对弱者利益的筛选式忽略,指的是政府的治理行为在算法偏好下忽略甚至漠视对边缘人群和底层人士的关怀,“人工智能+政府治理”难以考究人文的价值权重。所谓“人工智能+政府治理”对弱者利益的侵犯式剥离,主要指人工智能嵌入政府治理可能引发的对个人信息隐私的侵犯。实际上,信息技术入侵生活私域并不罕见,“方程式”和“索伦之眼”等高威胁组织以及“棱镜门”等事件背后都有美国政府的影子。在这种形势下,“人工智能+政府治理”难以保护相对弱势的消费者、公民和发展中国家的合法权利。

3

//  价值回应

科林·艾伦(ColinAllen)与温德尔·瓦拉赫(WendellWallach)驳斥了“机器人三大定律”,他们认为,“阿西莫夫所提出来的进路本质上是从外部约束制约人类主体的设计意图,但不对机器的道德地位及其行为的伦理性质作出断定”。沿着这一思路,我们理应为人工智能注入人文精神的生动灵魂,塑造人工智能鲜活的伦理格调。不管“人工智能+政府治理”的人性失范抑或是道德失范,本质上都是二者在相互博弈的环节中,可能导致政府治理的人本价值、人性价值和人的价值等人文价值沦丧的结果。难以自抑的感情和偏见使人犯错,而仅凭理性计算进行判定的计算机也会作恶。人工智能在不周延、不可预测的道德情境下可能作出不符合人类伦理的“恶的决策”或“机械化决策”。马克思关于生产力的进步与人的自由全面发展相统一的经典论述,给我们的启示是:“人工智能+政府治理”必须通过人文价值的洗礼,也就是科技进步只有真正为人民服务、维护社会的伦理规范并达到美好而周全的治理需求,才能实现善政与善治的转向。

因应技术对人文价值的挤占,我们必须站在人类伦理的制高点作出“人工智能+政府治理”的价值回应。因此,必须在科技进步与人文价值之间划定“人工智能+政府治理”免于误入伦理歧途的可靠边界,在科技、治理与伦理的限度内重新进行一场“文艺复兴”:一是人本价值回应。人本主义伦理视人的权利为禁脔,抨击技术威权主义,认为一切技术的发展都应以人的自由为中心。面对人工智能时代的信息鸿沟与技术操纵,自由和平等等价值仍是政府治理的终极定位。二是人性价值回应。亚当·斯密的《国富论》已经问世200多年,人们逐渐揭开了经济社会的神秘面纱——“世界的辉煌壮观与污秽贫困相伴而生,技术上的伟大成就恰恰折射出人性价值上的天然缺陷或内在缺点”。当科技进步带来物质的跨越式发展时,社会人性便迷失于经济理性之中,因此,政府官僚的行政伦理与职业道德应该守住人文精神的底线。三是人的价值回应。自古希腊以降,人的尊严、善与关怀似乎被逐渐悬浮,于中世纪达到顶峰。启蒙运动重新将这些人文价值置于国家与政府治理之中,并使之成为现代民主社会的集体信条,因此,人工智能嵌入政府治理不能以人的价值沦丧为代价。


人工智能时代政府治理的

法治失范与规制回应

希拉·贾萨诺夫教授在他的专著《法庭面临的科学:美国的法律、科学和技术》一书中通过案例的分类研究发现:科学和技术的发展以一种不可预测的方式切割固定的社会关系,并迫使人们通过法律重新定义既定的权利和义务。就法律和科技而言,二者还与政府治理有叠合点并内生出共同的话语:科技改变人的社会关系和行为,法律是规范人的社会关系及其行为的权威力量,政府治理旨在调整社会关系及其行为,以适应人类文明的需要。信息科技的进步使实在的物理空间与虚拟空间并存,人工智能的崛起以致政府面临的是一个关系重构和行为重构的世界,人工智能以颠覆性的作用力碰撞着当下的科层法治并造成可怕的后果:一是科层法治关系失范,主要包括秩序重构和数据安全;二是科层法治行为失范,主要包括裁量损害和归责模糊。这种人工智能时代政府治理的法治失范,本质上是政府治理对“人”的关系和行为调控效用的衰弱,因此,应构建一个“规制回应”的法制治理模型。

1

//  关系失范

人工智能作用机制下的社会交换以数据要素的流通为转向,但由于尚未形成完善的法律以平衡这种调整后的社会关系,毫无疑问地容易导致政府治理失去部分法治规范效用。这是因为,首先,数据要素促使政府的法治权限关系重构。人工智能的数据大多掌控在平台之中,智能终端和用户端的权限范围并不对等,政府并非总是能够获取完整的数据信息。其次,数据要素致使权利关系重构。由于数据是人工智能的底层资源,并将其作为社会关系交换的标的物,于是政府治理需要维护的法定权利也相应地与数据安全发生关联。最后,数据要素迫使政府治理的权力关系重构。人工智能的分析、预测依靠于数据的清洗和挖掘,于是数据处理逐渐成为一种隐性权力,少数互联网巨头也正在利用强大的资本力量牟取政治话语权。在此基础上,政府治理的秩序也发生重构:人工智能破坏了原有的人际链条,法律调节人与人之间关系的功效衰减,削弱政府治理对社会关系的规范性能力。

人工智能引发的法治失范以数据要素的重构为逻辑起点,波及社会关系且显著地表现在数据安全问题上,并逐渐病变为科层法治的一大痼疾。人工智能发展和数据安全问题捆绑在一起,对用户隐私、公民权益、商业秘密、知识产权、社会公平、国家安全等各个方面都影响深远。以用户数据为例,人工智能通过对个人的娱乐、社交、交通、购物、物流、医疗、教育等数据的获取,不仅破坏个人隐私权利,甚至产生更多非法的数字交易活动。这主要有两个方面的原因:一是人工智能导致科层法治的约束力失范,我国尚未制定专项的《个人信息保护法》,对于个人信息保护的法律目前由具体的法律、行政法规、地方性法规和规章、各类规范性文件和部门规章等共同组成,缺乏完善的法律体系支撑;二是人工智能导致科层法治的警示性失范,社会尚未形成一种相互检举的监控机制,致使数据隐私泄露滥觞,如深网视界泄露近250万人脸识别数据,3·15晚会披露50多款手机APP通过植入插件非法窃取、倒卖用户个人信息等。

2

//  行为失范

人工智能也改变了社会原有的行为方式,特别是引发关于人工智能行为权责地位的大讨论。行为权责激进派认为,人工智能可以作为行为主体,秉持“智能赋权”的理念;行为权责保守派则认为,人工智能的行为主体仍然是人类自身,人工智能只是其背后的控制者意志的表达物。实际上,“从主张赋予人工智能法律主体地位的种种观点来看,均是人类在为人工智能赋权,而非其他主体在为其赋权”。因而,人工智能时代政府治理需要警惕的是权责行为主体的认定模糊问题,也就是利用人工智能进行非法活动而试图逃避法治制裁的情形,引出面向人工智能时代的政府治理转型亟须回应的两个重要议题:一是权力派生。以乐观的态度视之,即使达到超人工智能的地步,人工智能仍然容易成为其背后资本的权力派生工具。对人工智能赋权,容易形成新的特权。二是责任转嫁。即使进行责任的主体共担,将人工智能的投资者、研发者、操作者、授权者、使用者等相关人员确定为责任主体,并根据具体情况明确责任分担,具有优势地位的行为主体仍然可能将责任转嫁于其他行为主体。


众所周知,孟德斯鸠探讨了法律和自由的关系,认为在一个有法律的社会里,自由只能是人们能够做应该做的事,是一切法律所允许做的事情的权利。法律通过抽象的法理和具体的法条告诉人们哪些不能做,通过权责分配和善恶熔断机制实现对行为主体的保护或矫治。当法律的权责存在认定模糊之时,面向人工智能时代的政府治理也就丧失部分强制性的规范效力。不可置否,人工智能时代的科层法治失范传导给政府治理的抑恶功能弱化也带来许多负面效应:一方面意味着政府治理有极大的可能遭遇更多非典型的侵权行为,人工智能使侵权方式更为多样、手段更为隐蔽、影响更为恶劣、损害更为巨大,治理的成本增加、效益减弱;另一方面,治理的扬善功能也心有余而力不足,在社会管理与服务中难以逃脱“高尚是高尚者的墓志铭,卑鄙是卑鄙者的通行证”的治理综合征,治理的难度系数加大。以上都是“人工智能+政府治理”面临的行动困境,政府如何对人工智能进行科层法治的规范成为一项繁重而又艰巨的治理任务。

3

//  规则回应

从霍布斯的《利维坦》、到洛克的《政府论》、再到卢梭的《社会契约论》,都强调了一点:创建国家制度或政府机关的本意是更好地维护人民应有的自然权利。政治法律制度是人类社会集体实践活动的产物,通过权责划定规范着人与人之间的关系与行为。人工智能以数据为要素的特点促使社会关系及其行为发生改变:一是人际交往转变为数据交换;二是“人与人”交互的二维活动模式转变为“人—机—人”交互的三维活动模式。人工智能的嵌入使部分群体的实践活动突破现有科层法治的边界,于是,“人工智能+政府治理”人文构建的法制治理模式变革也变得迫切了。如何应对人工智能时代政府治理的科层法治失范?面向人工智能时代的法治挑战涉及人、人工智能、法律和政府治理等四者之间的关系与行为的规范性,尤其是面临如何在人工智能时代保持人的法律主体地位问题,政府治理应该较之以往更加关注法制的作用,对人本权责、人性权责等人文规范进行保护、救济与规制。概言之,法律在人工智能时代的规制能力弱化,人工智能对社会关系及其行为的改变超越了部分有法治的能力范畴。此时我们需要考虑如何对人工智能时代的法治失范问题进行有效治理:一是保障性规制回应。政府治理在人工智能时代应该给予弱势群体更多的关注,防范人工智能对其权利的侵蚀,尤其是在数据安全和隐私保护领域,应该让科层法治为弱者发声及正言。二是救济性规制回应。在政府治理过程中,应当“为数字空间中个人信息权、数据权、工作权、受教育权、生存权等具体权利遭受第三人侵害积极提供司法救济等法律援助条件”。三是压力性规制回应。人工智能时代的数据及其自主性撬动原有的社会规范,法律的调节作用有所松动。政府治理亟须增强压力性规制力,从事前的角度制定更为健全的人工智能相关法规约束不法行为。四是矫治性规制回归。人工智能时代的政府治理必须对失范行为进行矫治,即以威慑力防止“惯犯”和“再犯”,增强政府治理事后的持续规制能力,形成长效的对人工智能风险进行治理的法治机制。


人工智能时代政府治理的

社会异化与责任回应

英国著名社会理论家吉登斯认为,人造风险正在人类社会的大多数方面扩展,科学与技术所造成的不确定性并不囿于集体的环境,而直接侵入个人和社会的生产生活之中。或许,工业时代改变的是社会文明的形态,而人工智能则可能引致人类文明的巨变,因为“人工智能+”触及深层次的人类存在及其社会属性的异化问题。从政府治理和社会活动两个极为重要的领域—生产和生活的角度作为进路,剖析“人工智能+政府治理”的科技挑战有其必要性。人工智能对社会生产安全的异化,其焦点是人工智能会不会替代人。实际上,人们也不该忽视:人工智能将有可能带来社会生产的巨大进步,政府治理应该如何促使全体公民共享技术红利,而非产生更大的阶层分化。人工智能对社会生活安全的异化主要表现为人的个体性的“淹没”,人工智能在生活的各个领域代表人类作出一些决定,“智能代理”干扰了人类的自主生活,进而导致人们对人工智能的普遍不信任。因此,人工智能时代的政府治理需要作出具有人文关怀的回应性调试,对人们生产与生活中的异化现象进行纠偏。

1

//  生产异化

从社会的生产场域来看,政府既是调节市场经济的“有形的手”,也是市场秩序的制定者以及市场价值的再分配者。从采猎文明、农耕文明、工业文明到数字文明,个体劳动对工具的依赖程度越来越高,人工智能正在异化劳动生产的市场空间。有研究者指出,美国47%的工作极有可能会为高度自动化的系统所取代……高达50%的就业岗位在不远的未来都有被机器占领的危险。由是观之,人工智能正在挤占工作机会,招致新一轮的失业危机。资本掌握市场的先进技术,利用技术红利减少雇工费用并进而获取高额垄断报酬是企业家惯常的手段。在劳动力雇佣费用日益上升的趋势下,基于人工智能的自动化生产技术对于重复性劳动占据效率和成本等具有多方面优势。人工智能可以独立完成的工作越多,意味着机器替代人越加成为一个无法回避的现实问题。我们看到,人工智能对人的替代不仅仅在于体力劳动,而且也已扩展到脑力劳动的范畴,这是“机器替人”出现的新场域;另外,初阶的工业机器无法摆脱低值品的束缚,但高阶的智能机器明显具备了主体性的价值创造能力。

此外,人工智能也在异化商品市场的价值分配,经济优势所掌握的技术迭换甚至会继续扩大阶层差别。科技生产红利的享受者总是以财富优势作为第一顺位的被选择人,自然市场中的穷人在获取先进技术和运用先进设备方面总是滞后于富人,这主要表现在三个方面:一是时间优差。同样一件智能化产品,跨越阶层的使用总是以时间为衡量单位,只有等待生产成本下降和产品下沉,中下层民众才能享受到同等的技术红利。二是地域优差。人工智能产品与服务以信息化设施为支撑,而偏远地区并没有完善的数字化基础。科技红利遵循从发达地区向欠发达地区转移的迭代趋势,因此前者比后者具有更多样化的智能产品选择。三是资本优差。掌握更先进人工智能技术的企业具有垄断地位,通过资本控制智能化生产资源的自由流动,从而利用核心技术来操纵市场定价。一个典型例子是微软公司利用大量软件应用程序对其底层操作系统的依赖而享有长期的垄断定价能力,形成“应用程序进入壁垒”。在上述三大科技红利优差的影响下,面向人工智能时代的政府治理尤为应该阻断阶层优差的扩大化趋势。

2

//  生活异化

在社会生活方面,政府是提供社会管理与服务最直接有效的力量,而“人工智能+政府治理”理应推动社会走向善治善政的理想状态,然而,作为个人生存生活的一种必需品,人工智能正在逐渐异化着人们的生活空间。作为算法接受者的信息输出对象,个体很少会思考智能选择下的运算逻辑。在日常生活中,大量的人脑决策也随着智能化的到来而让位于人工智能的算法决策,人工智能异化人的生活状态且造成“代理困境”。这种“代理人问题”的产生背离了代理人应该代表其主体的利益的初衷,而将自己的利益放在其所代表的人的利益之上,数字上瘾、信息茧房等现象实际上都是智能代理困境的外在表现。我们看到,人工智能的自动化技术正在试图蚕食个体的自主性,人工智能辅助个人作出代理决策,但这种决策并非总是有效的,也并非能够完全符合自由人的意志表达,往往在很大程度上成为算法逻辑及其背后推手的操纵工具。伴随人工智能不断侵蚀个人的思考能力,人工智能也极易成为投机分子谋利的数字化武器。人工智能是一种仍在探索而远未成熟的革命性、颠覆性的前沿技术,其强大的智能技术范式正在分裂出自己的对立面并导致人类生存方式和活动方式的新异化。

由此可见,人工智能具有较强的侵略性,这种所谓的“智慧生活”容易导致社会生活世界的不透明性、不可解释性和不确定性,也容易滋生普遍性恐慌并对社会产生不信任感。上述风险和挑战主要表现在以下三个方面:一是数据利用的不透明性。人工智能越是与人类生活相融合,就越发难以割舍人与人工智能之间的关系,人被人工智能的功能绑架—必须提供大量数据才能获得更为精准的服务,然而,这些数据并不公开,而是为大型科技公司所垄断,信息孤岛、数据烟囱林立的现象随处可见。二是算法逻辑的不可解释性。算法看似一切皆有依循,但是算法背后的逻辑并不具有实质的解释力,因为普通民众难以接触算法的运行过程。算法为资本工作,资本垄断的智能推介助涨了商业性消费引导的嚣张气焰,消费者对算法服务的不信任感陡然增加。三是算力竞备的风险性。算力具有高投入、高挑战、强外部性和高垄断性的技术特征,算力的无序竞争容易引发算法攻击,甚至使正常的社会生活被算法劫持。

3

//  责任回应

毋庸置疑,人工智能的不确定性达到一个让人无法忽视的地步,现在需要思考的不仅仅是人工智能会将科技带入何方,而且更要拷问人工智能会将人类带往何方。如何在人、人工智能、社会安全和政府治理的力矩之间达到平衡点,促进“人工智能+”在生产与生活领域的安全性运用?人具有自然属性和社会属性,人的本质体现在社会属性上。当人工智能与社会高度融合并趋向一体化,也就是在自然属性以外被人类赋予更多的社会属性之时,人工智能时代的政府治理就必须坚守人文精神的一些核心理念。我们认为,面向人工智能时代的政府治理需要对社会责任进行回应。中国政府对外公布了《新一代人工智能治理原则—发展负责任的人工智能》报告,提出了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理等八项原则。我们需要认识到人工智能所有的社会价值只有建立在对“人”负责任的底层逻辑之上,才能发挥人工智能的正向效应,对人工智能进行治理,最终目的是使人工智能实现安全可靠的社会融入。

由是,为了应对人工智能对生产与生活安全领域的异化,更加需要构建责任型的政府治理体系。我们认为,促进“人工智能+政府治理”在社会责任向度上的回归,不妨从以下三个方面作出回应:一是可持续发展的责任回应。人工智能时代存在大规模的短期挑战和长期挑战,人工智能既不能代替人,也不能成为真正意义上的“代理人”。对人工智能进行治理是一个长期的过程,人工智能应以不妨碍个体自由而可持续发展为准则,对接全体人类永恒的社会利益。二是周全服务的责任回应。人工智能在某种程度上可以看作一种极其强大的服务“机器”,开辟出一条通往服务型政府、服务型社会和服务型国家的现实路径。如何使人工智能的服务供给更加周全,防止被“人为”的私欲异化,是面向人工智能时代政府治理的研究方向。三是共同体的责任回应。当人工智能不断融入社会并成为社会要素不可分割的一部分时,政府治理尤其需要考虑如何促使人工智能与人类和谐共处的模式建构,努力形成一种人与人工智能无危害式的伙伴关系,并促使“人工智能+政府治理”形成社会发展共建、社会风险共担和社会价值共享的伙伴关系格局。


结论与讨论

不言自明,人工智能的发展给人类文明带来双重境遇,人工智能时代的政府治理需要应对科技革命的嬗变,以求在治理环境的复杂性、不平衡性、变革性的背景下,担负起作为治理者的角色和使命。理论研究和实践经验都在表明,“以信息技术、人工智能等为代表的高新技术正在改变人类的经济结构、社会结构和生活方式,同样也对政府治理产生着巨大的影响”。因此,政府必须成为这场新科技革命的引领者和主导者,同时以更加敏感的嗅觉、更为敏锐的目光和更加敏捷的手法回应公民的生存性、发展性和享受性需求。

由是观之,不管是人工智能嵌入政府的治理机制转型,还是面向人工智能时代的治理变革,都应具备以下特质:

第一,“人工智能+政府治理”必须具有前瞻性。人工智能时代的政府治理应是未来导向的,应是旨在追求社会长远的、整体性的利益,进而为人类文明寻求成长的机会并识别威胁,努力降低人工智能嵌入政府治理的潜在风险,唯有治理好人工智能,方可发挥人工智能的最大化效能。

第二,“人工智能+政府治理”必须具有稳妥性。面对人工智能对人的负外部性效应,以及人工智能有可能引致的政府失灵、市场失灵和社会失灵现象,应以稳妥地发展“有温度”的“人工智能+政府治理”为己任,以社会秩序的稳定为要义,以社会发展的“稳中求进”为宗旨。

第三,“人工智能+政府治理”必须具有权变性。“人工智能+政府治理”应该对社会环境的变化具有较强的弹性和适应性,政府治理必须具备快速反应的能力,能够根据科技进步作出最无愧于社会进步的选择,在人工智能时代制定有效的政策法规保障公民的权利。

第四,“人工智能+政府治理”必须具有多态性。我们知道,“人工智能+政府治理”的风险挑战是非线性的、突变的,我们需要发展一种有机的、系统的治理方式,从静态的、动态的、生态的和心态的等多态化角度思考“人工智能+政府治理”的时代变革。

无论如何,我们仍然需要对移动互联网、大数据、区块链、云计算、人工智能等所构筑的数字时代和智能世界报以鲜花和掌声,不能因为存在风险和挑战就抱怨、害怕、愤懑甚至废弃,那将会是本末倒置、因噎废食、得不偿失的。值此数字化、智能化变革之际,回望人文、回归人文、回应人文更可见科技之大美、治理之大善。




《南方治理评论》稿约


《南方治理评论》始创于2013年,CNKI来源集刊。广州大学南方治理研究院主办、社会科学文献出版社出版的连续性学术辑刊。《南方治理评论》秉持“培育公共精神,直面转型中国,诠释社会热点,扩展学术深度,贴近重大需求,服务国家治理”,追求“本土化、专业化、个性化、国际化”,崇尚原创研究、微观研究和深度研究的学术精神,试图在中国繁杂的地方语境下运用本土话语体系着力解读地方性知识和日常性逻辑。主要设置有“学术一线”、“数字治理”、“健康治理”、“灾害治理”、“南国讲堂”、“伶仃书评”、“回归访谈”等栏目。

通讯地址:广州市大学城外环西路230号文逸楼512室

邮政编码:510006

办公电话:020-39366779

投稿邮箱:gdgzpar@163.com

投稿网站:http://iedol.ssap.cm.cn/(选择“社会政法”)

投稿体例:https://pan.wps.cn/l/srr2hdj


《南方治理评论》第8辑
《南方治理评论》第7辑
《广州公共管理评论》第6辑
《广州公共管理评论》第5辑
《广州公共管理评论》第4辑
《广州公共管理评论》第3辑
《广州公共管理评论》第2辑
《广州公共管理评论》第1辑


    

     广州大学南方治理研究院始创于2019年,广东省高校特色新型智库,广东省决策咨询研究基地。研究院主要研究领域包括珠三角政府治理、粤港澳大湾区社会治理、珠江流域生态治理、泛珠三角健康治理、南中国海安全治理等五大方面,致力于建设成为“经世致用、咨政育人”的地方高校特色智库。


广州大学南方治理研究院





继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存